मुंबई, 29 मई, (न्यूज़ हेल्पलाइन) जब से ChatGPT को नवंबर 2022 में वापस पेश किया गया, तब से इसे विभिन्न उपयोगों के लिए रखा गया है। निबंध और कविता लिखने से लेकर कोड हल करने तक, ChatGPT कई उपयोगकर्ताओं के लिए वरदान साबित हुआ। हालाँकि, इसके जारी होने के लगभग छह महीने बाद, AI चैटबॉट के बारे में चिंताएँ भी सामने आने लगी हैं।
तकनीकी विशेषज्ञों ने तर्क दिया है कि चैटबॉट कई बार 'भ्रम' पैदा कर सकता है और इस तरह के विश्वास के साथ तथ्यात्मक रूप से गलत जानकारी प्रदान कर सकता है कि उपयोगकर्ता इसे सच मान सकता है। इसलिए, ChatGPT का उपयोग जानबूझकर या अनजाने में गलत सूचना फैलाने के लिए किया जा सकता है। और लोगों को परेशानी में भी डाल सकते हैं अगर वे एआई चैटबॉट पर आंख मूंदकर भरोसा करते हैं और इसकी प्रतिक्रियाओं की दोबारा जांच नहीं करते हैं।
न्यूयॉर्क में एक वकील के साथ भी कुछ ऐसा ही हुआ, जिसने कानूनी शोध उद्देश्यों के लिए चैटजीपीटी का इस्तेमाल किया और अब अदालत की सुनवाई में परेशानी का सामना कर रहा है।
ChatGPT ने अमेरिकी वकील को संकट में डाला
बीबीसी की एक रिपोर्ट के अनुसार, न्यूयॉर्क के एक वकील को अदालती सुनवाई का सामना करना पड़ रहा है, क्योंकि उसकी फर्म के एक सहयोगी ने कानूनी शोध के लिए चैटजीपीटी का इस्तेमाल किया। अदालत ने पाया कि एक चल रहे मामले में वकील और उसकी फर्म द्वारा संदर्भित कई कानूनी मामले कभी अस्तित्व में नहीं थे। न्यायाधीश ने इस घटना को "अभूतपूर्व परिस्थिति" करार दिया।
पीटर लोडुका एक अदालती सुनवाई का सामना करने वाले वकील हैं और उनके सहयोगी, जिन्होंने शोध के लिए चैटजीपीटी का इस्तेमाल किया, स्टीवन ए श्वार्ट्ज हैं। बीबीसी की रिपोर्ट से पता चलता है कि श्री श्वार्ट्ज 30 से अधिक वर्षों से एक वकील रहे हैं और अतीत में इसी तरह के मामलों की तलाश के लिए ओपनएआई के उपकरण का इस्तेमाल करते थे।
जब श्री श्वार्ट्ज से इस बारे में सवाल किया गया, तो उन्होंने कहा कि उन्हें एआई टूल द्वारा गलत सूचना देने की संभावना के बारे में पता नहीं था। वरिष्ठ वकील ने एआई चैटबॉट पर भरोसा करने के लिए भी खेद व्यक्त किया और 'इसकी प्रामाणिकता के पूर्ण सत्यापन के बिना भविष्य में अपने कानूनी शोध के पूरक के लिए कभी भी एआई का उपयोग नहीं करने' का वादा किया।
एक लिखित बयान में, श्री श्वार्ट्ज ने यह भी स्पष्ट किया कि श्री लोडुका को इस बात की जानकारी नहीं थी कि शोध कैसे किया गया और वह किसी भी तरह से इसका हिस्सा नहीं थे।
मूल मामला, जो चल रहा था और जिसके लिए शोध किया गया था, में एक एयरलाइन पर मुकदमा करने वाला एक व्यक्ति शामिल था। जब उस व्यक्ति की कानूनी टीम ने अपने तर्क का समर्थन करने के लिए पिछले अदालती मामलों का हवाला देते हुए एक संक्षिप्त विवरण प्रस्तुत किया, तो एयरलाइन के वकीलों ने न्यायाधीश को सूचित किया कि वे संदर्भित मामलों में से कई का पता नहीं लगा सके।
जब Google खोज बॉस ने AI मतिभ्रम के खिलाफ चेतावनी दी
यह पहली बार नहीं है कि चैटजीपीटी ने ऐसे उदाहरण खोजकर परेशानी खड़ी की है जो कभी हुआ ही नहीं। लगभग एक महीने पहले, यह बताया जा रहा था कि AI चैटबॉट ने एक प्रोफेसर पर एक छात्रा का यौन उत्पीड़न करने का आरोप लगाया और उसी पर एक समाचार लेख बनाया। वास्तव में ऐसा समाचार लेख कभी नहीं लिखा गया था।
इस साल फरवरी में, Google के वरिष्ठ उपाध्यक्ष और Google खोज के प्रमुख, प्रभाकर राघवन ने एक जर्मन प्रकाशन के साथ बातचीत में चेतावनी दी थी कि AI कभी-कभी 'भ्रम' पैदा कर सकता है और 'ऐसे उत्तर दे सकता है जो आश्वस्त करने वाले हों लेकिन पूरी तरह से गढ़े हुए' हों।
उन्होंने कहा, "इस तरह की कृत्रिम बुद्धिमत्ता जिसके बारे में हम अभी बात कर रहे हैं, कभी-कभी कुछ ऐसा हो सकता है जिसे हम मतिभ्रम कहते हैं। यह तब खुद को इस तरह से अभिव्यक्त करता है कि एक मशीन एक ठोस लेकिन पूरी तरह से बना-बनाया उत्तर प्रदान करती है।"
उन्होंने आगे कहा कि मूलभूत कार्यों में से एक इसे न्यूनतम रखना था।